home *** CD-ROM | disk | FTP | other *** search
/ Games of Daze / Infomagic - Games of Daze (Summer 1995) (Disc 1 of 2).iso / x2ftp / books / tech / hybrcnlp.toc < prev    next >
Internet Message Format  |  1994-12-18  |  10KB

  1. From: wermter@informatik.uni-hamburg.de (Stefan Wermter)
  2. Newsgroups: comp.ai,comp.ai.nat-lang,comp.ai.neural-nets,de.sci.ki.announce
  3. Subject: book on hybrid connectionist language processing
  4. Date: 13 Dec 1994 12:38:56 GMT
  5.  
  6.  
  7. BOOK ANNOUNCEMENT
  8. -----------------
  9.  
  10. The following book is now available from the beginning of December 1994.
  11.  
  12.  
  13. Title:      Hybrid connectionist natural language processing
  14.  
  15. Date:       1995
  16.  
  17. Author:     Stefan Wermter
  18.             Dept. of Computer Science
  19.             University of Hamburg
  20.             Vogt-Koelln-Str. 30
  21.             D-22527 Hamburg
  22.             Germany
  23.  
  24.             wermter@informatik.uni-hamburg.de
  25.  
  26. Series:     Neural Computing Series 7
  27.  
  28. Publisher:  Chapman & Hall Inc
  29.             2-6 Boundary Row
  30.             London SE1 8HN
  31.             England
  32.  
  33.  
  34.  
  35. (Order information in the end of this message)
  36.  
  37.  
  38. Description
  39. -----------
  40.  
  41. The objective of this  book is  to describe a  new approach  in hybrid
  42. connectionist natural language processing which bridges the gap between
  43. strictly symbolic and connectionist systems. This objective is tackled
  44. in two ways: the book gives an overview of hybrid connectionist archi-
  45. tectures for natural  language processing; and  it demonstrates that a
  46. hybrid connectionist architecture can be used for learning real-world
  47. natural language problems. The book is primarily intended for scientists
  48. and students interested in the fields of artificial intelligence, neural
  49. networks,  connectionism, natural  language processing, hybrid symbolic
  50. connectionist architectures,  parallel distributed processing, machine
  51. learning, automatic knowledge  acquisition or computational linguistics.
  52. Furthermore,  it might  be of  interest for  scientists and students
  53. in information retrieval and cognitive science, since the book points
  54. out interdisciplinary relationships to these fields.
  55.  
  56. We develop a systematic spectrum of hybrid connectionist architectures,
  57. >from completely symbolic architectures to separated hybrid connectionist
  58. architectures,  integrated  hybrid  connectionist architectures and
  59. completely connectionist architectures. Within this systematic spectrum
  60. we have designed a system SCAN with two separated hybrid  connectionist
  61. architectures and two integrated hybrid connectionist architectures for
  62. a scanning  understanding of phrases. A scanning understanding  is a
  63. relation-based flat understanding in  contrast to traditional symbolic
  64. in-depth understanding. Hybrid  connectionist representations  consist
  65. of either a combination of connectionist and symbolic representations
  66. or different  connectionist representations. In particular, we focus on
  67. important  tasks like structural  disambiguation and semantic context
  68. classification. We show that  a parallel modular, constraint-based,
  69. plausibility-based  and learned use of multiple hybrid connectionist
  70. representations provides powerful architectures  for learning a scanning
  71. understanding.  In particular, the combination of direct encoding of
  72. domain-independent structural knowledge and the connectionist learning of
  73. domain-dependent semantic knowledge, as suggested by a scanning under-
  74. standing in SCAN, provides concepts which lead to  flexible, adaptable,
  75. transportable architectures for different domains.
  76.  
  77.  
  78.  
  79.  
  80. Table of Contents
  81. -----------------
  82.  
  83. 1 Introduction
  84.   1.1 Learning a Scanning Understanding
  85.   1.2 The General Approach
  86.   1.3 Towards a Hybrid Connectionist Memory Organization
  87.   1.4 An Overview of the SCAN Architecture
  88.   1.5 Organization and Reader's Guide
  89.  
  90. 2 Connectionist and Hybrid Models for Language Understanding
  91.   2.1 Foundations of Connectionist and Hybrid Connectionist Approaches
  92.   2.2 Connectionist Architectures
  93.     2.2.1 Representation of Language in Parallel Spatial Models
  94.       Early Pattern Associator for Past Tense Learning
  95.       Pattern Associator for Semantic Case Assignment
  96.       Pattern Associator with Sliding Window
  97.       Time Delay Neural Networks
  98.     2.2.2 Representation of Language in Recurrent Models
  99.       Recurrent Jordan Network for Action Generation
  100.       Simple Recurrent Network for Sequence Processing
  101.       Recursive Autoassociative Memory Network
  102.     2.2.3 Towards Modular and Integrated Connectionist Models
  103.       Cascaded Networks
  104.       Sentence Gestalt Model
  105.       Grounding Models
  106.   2.3 Hybrid Connectionist Architectures
  107.     2.3.1 Sentence Analysis in Hybrid Models
  108.       Hybrid Interactive Model for Constraint Integration
  109.       Hybrid Model for Sentence Analysis
  110.     2.3.2 Inferencing in Hybrid Models
  111.       Symbolic Marker Passing and Localist Networks
  112.       Symbolic Reasoning with Connectionist Models
  113.     2.3.3 Architectural Issues in Hybrid Connectionist Systems
  114.       Symbolic Neuroengineering and Symbolic Recirculation
  115.       Modular Model for Parsing
  116.   2.4 Summary and Discussion
  117.  
  118. 3 A Hybrid Connectionist Scanning Understanding of Phrases
  119.   3.1 Foundations of a Hybrid Connectionist Architecture
  120.     3.1.1 Motivation for a Hybrid Connectionist Architecture
  121.     3.1.2 The Computational Theory Level for a Scanning Understanding
  122.     3.1.3 Constraint Integration
  123.     3.1.4 Plausibility view
  124.     3.1.5 Learning
  125.     3.1.6 Subtasks of Scanning Understanding at the Computational Theory Level
  126.     3.1.7 The Representation Level for a Scanning Understanding
  127.   3.2 Corpora and Lexicon for a Scanning Understanding
  128.     3.2.1 The Underlying Corpora
  129.     3.2.2 Complex Phrases
  130.     3.2.3 Context and Ambiguities of Phrases
  131.     3.2.4 Organization of the Lexicon
  132.   3.3 Plausibility Networks
  133.     3.3.1 Learning Semantic Relationships and Semantic Context
  134.     3.3.2 The Foundation of Plausibility Networks
  135.     3.3.3 Plausibility Networks for Noun-Connecting Semantic Relationships
  136.     3.3.4 Learning in Plausibility Networks
  137.     3.3.5 Recurrent Plausibility Networks for Contextual Relationships
  138.     3.3.6 Learning in Recurrent Plausibility Networks
  139.   3.4 Summary and Discussion
  140.  
  141. 4 Structural Phrase Analysis in a Hybrid Separated Model
  142.   4.1 Introduction and Overview
  143.   4.2 Constraints for Coordination
  144.   4.3 Symbolic Representation of Syntactic Constraints
  145.     4.3.1 A Grammar for Complex Noun Phrases
  146.     4.3.2 The Active Chart Parser and the Syntactic Constraints
  147.   4.4 Connectionist Representation of Semantic Constraints
  148.     4.4.1 Head-noun Structure for Semantic Relationships
  149.     4.4.2 Training and Testing Plausibility Networks with NCN-relationships
  150.     4.4.3 Learned Internal Representation
  151.   4.5 Combining Chart Parser and Plausibility Networks
  152.   4.6 A Case Study
  153.   4.7 Summary and Discussion
  154.  
  155. 5 Structural Phrase Analysis in a Hybrid Integrated Model
  156.   5.1 Introduction and Overview
  157.   5.2 Constraints for Prepositional Phrase Attachment
  158.   5.3 Representation of Constraints in Relaxation Networks
  159.     5.3.1 Integrated Relaxation Network
  160.     5.3.2 The Relaxation Algorithm
  161.     5.3.3 Testing Relaxation Networks
  162.   5.4 Representation of Semantic Constraints in Plausibility Networks
  163.     5.4.1 Training and Testing Plausibility Networks with NPN-Relationships
  164.     5.4.2 Learned Internal Representation
  165.   5.5 Combining Relaxation Networks and Plausibility Networks
  166.     5.5.1 The Interface between Relaxation Networks and Plausibility Networks
  167.     5.5.2 The Dynamics of Processing in a Relaxation Network
  168.   5.6 A Case Study
  169.   5.7 Summary and Discussion
  170.  
  171. 6 Contextual Phrase Analysis in a Hybrid Separated Model
  172.   6.1 Introduction and Overview
  173.   6.2 Towards a Scanning Understanding of Semantic Phrase Context
  174.     6.2.1 Superficial Classification in Information Retrieval
  175.     6.2.2 Skimming Classification with Symbolic Matching
  176.   6.3 Constraints for Semantic Context Classification of Noun Phrases
  177.   6.4 Syntactic Condensation of Phrases to Compound Nouns
  178.     6.4.1 Motivation of Symbolic Condensation
  179.     6.4.2 Condensation Using a Symbolic Chart Parser
  180.   6.5 Plausibility Networks for Context Classification of Compound Nouns
  181.     6.5.1 Training and Testing the Recurrent Plausibility Network
  182.     6.5.2 Learned Internal Representation
  183.   6.6 Summary and Discussion
  184.  
  185. 7 Contextual Phrase Analysis in a Hybrid Integrated Model
  186.   7.1 Introduction and Overview
  187.   7.2 Constraints for Semantic Context Classification of Phrases
  188.   7.3 Plausibility Networks for Context Classification of Phrases
  189.     7.3.1 Training and Testing with Complete Phrases
  190.     7.3.2 Training and Testing with Phrases without Insignificant Words
  191.     7.3.3 Learned Internal Representation
  192.   7.4 Semantic Context Classification and Text Filtering
  193.   7.5 Summary and Discussion
  194.  
  195. 8 General Summary and Discussion
  196.   8.1 The General Framework of SCAN
  197.   8.2 Analysis and Evaluation
  198.     8.2.1 Evaluating the Problems
  199.     8.2.2 Evaluating the Methods
  200.     8.2.3 Evaluating the Representations
  201.     8.2.4 Evaluating the Experiment Design
  202.     8.2.5 Evaluating the Experiment Results
  203.   8.3 Extensions of a Scanning Understanding
  204.     8.3.1 Extending Modular Subtasks
  205.     8.3.2 Extending Interactions
  206.   8.4 Contributions and Conclusions
  207.  
  208. 9 Appendix
  209.   9.1 Hierarchical Cluster Analysis
  210.   9.2 Implementation
  211.   9.3 Examples of Phrases for Structural Phrase Analysis
  212.   9.4 Examples of Phrases for Contextual Phrase Analysis
  213.  
  214. References
  215. Index
  216.  
  217.  
  218.  
  219.  
  220.  
  221.  
  222.  
  223. Orders information
  224. -----------------
  225.  
  226.             ISBN: 0 412 59100 6
  227.             Pages: 190
  228.             Figures: 56
  229.  
  230.             Price: 29.95 pounds sterling, 52.00 US dollars
  231.             Credit cards: all major credit cards accepted by Chapman & Hall
  232.  
  233.  
  234.             Please order from:
  235.  
  236.         --  Pam Hounsome
  237.             Chapman & Hall
  238.             Cheriton House
  239.             North Way
  240.             Andover
  241.             Hants, SP10 5BE, UK
  242.             England
  243.  
  244.             UK orders:
  245.                Tel: 01264 342923 Fax: 01264 364418
  246.             Overseas orders:
  247.                Tel: +44 1264 342830 Fax: +44 1264 342761
  248.  
  249.  
  250.             (Sister company in US)
  251.         --  Peter Clifford
  252.             Chapman & Hall Inc 
  253.             One Penn Plaza
  254.             41st Floor
  255.             New York NY 10119
  256.             USA
  257.  
  258.             Tel: 212 564 1060
  259.             Fax: 212 564 1505
  260.  
  261.  
  262.         --  or e-mail on: order@Chaphall.com
  263.